Transformer Interpretability Beyond Attention Visualization
#paper
#説明性
LRP
を
Transformer
にも使用できるようにしたもの
LRP
では行列和や行列積に対応できない
→ いい感じに代替
https://gyazo.com/7fa76a9565f479f15caff98a104b92e0